GPT는 실제로 어떻게 동작하는가
GPT가 문장을 입력받아 답변을 생성하는 전체 과정을 구체적으로 살펴본다. 토큰화, Transformer 구조, 파라미터 수까지.
6개의 글
GPT가 문장을 입력받아 답변을 생성하는 전체 과정을 구체적으로 살펴본다. 토큰화, Transformer 구조, 파라미터 수까지.
손글씨 숫자 인식 코드를 한 줄씩 뜯어보면서 Sequential, Dense, ReLU, Softmax, 학습이 실제로 어떻게 동작하는지 이해한다.
인공지능, 머신러닝, 딥러닝, Transformer, GPT까지 전체 맥락을 초보자도 이해할 수 있게 설명한다.
머신러닝에서 자주 쓰는 sparse_categorical_crossentropy가 뭔지, 손실 함수가 왜 필요한지 쉽게 설명한다.
인공 신경망의 역사와 기본 개념을 정리했다. 생물학적 뉴런, McCulloch-Pitts 모델, Hebbian Learning의 원리를 다룬다.
퍼셉트론의 개념, XOR 문제, Multi Layer Perceptron, ADALINE까지 정리했다. 딥러닝의 역사적 기원을 이해하는 데 도움이 되는 글이다.